آینده هوش مصنوعی جنگ است
آینده هوش مصنوعی جنگ است -زمانی که به قلمرو داستان های علمی تخیلی محدود می شد، مفهوم ابررایانه هایی که انسان ها را می کشند، اکنون به یک امکان متمایز در دنیای واقعی در آینده نزدیک تبدیل شده است.
تصور دنیایی که در آن ماشینهایی که توسط هوش مصنوعی (AI) اداره میشوند به طور سیستماتیک جایگزین انسانها در اکثر کارکردهای تجاری، صنعتی و حرفهای میشوند.
به هر حال، همانطور که دانشمندان برجسته کامپیوتر به ما هشدار داده اند، سیستم های تحت کنترل هوش مصنوعی مستعد خطاهای مهم و “توهمات” غیرقابل توضیح هستند که منجر به نتایج بالقوه فاجعه آمیز می شود.
اما سناریوی خطرناکتری از تکثیر ماشینهای فوقهوشمند قابل تصور است: این احتمال که آن موجودات غیرانسانی بتوانند در نهایت با یکدیگر بجنگند و تمام زندگی بشر را در این فرآیند از بین ببرند.
این تصور که رایانههای فوق هوشمند ممکن است انسانها را از بین ببرند، البته از دیرباز یکی از عناصر اصلی فرهنگ عامه بوده است.
در فیلم پیشگویانه WarGames محصول 1983 ، یک ابررایانه معروف به WOPR (برای پاسخ به طرح عملیات جنگی و تعجب آور نیست که “whopper” تلفظ می شود) تقریباً یک جنگ هسته ای فاجعه بار بین ایالات متحده و اتحاد جماهیر شوروی را تحریک می کند قبل از اینکه توسط یک هکر نوجوان از کار بیفتد.
با بازی متیو برودریک). فرانچایز فیلم « نابودگر » که با فیلم اصلی 1984 شروع شد، به طور مشابه ابررایانهای به نام «اسکاینت» را تصور میکرد که مانند WOPR برای کنترل سلاحهای هستهای ایالات متحده طراحی شده بود، اما در عوض، بشریت را از بین میبرد و ما را تهدید میداند. به وجود آن
اگرچه زمانی به قلمرو داستان های علمی تخیلی محدود می شد، اما مفهوم ابررایانه هایی که انسان ها را می کشند اکنون به یک امکان متمایز در دنیای واقعی در آینده نزدیک تبدیل شده است.
علاوه بر توسعه طیف گستردهای از دستگاههای رزمی « خود مختار » یا روباتیک، قدرتهای نظامی بزرگ همچنین برای ایجاد سیستمهای خودکار تصمیمگیری در میدان نبرد، یا آنچه که « ژنرال ربات » نامیده میشود، عجله دارند.
در جنگهایی در آیندهای نه چندان دور، چنین سیستمهای مجهز به هوش مصنوعی میتوانند برای ارائه دستورات رزمی به سربازان آمریکایی مستقر شوند و تعیین کنند که کجا، چه زمانی و چگونه سربازان دشمن را بکشند یا از مخالفان خود آتش بگیرند.
در برخی سناریوها، تصمیم گیرندگان ربات می توانند حتی در نهایت بر سلاح های اتمی آمریکا کنترل داشته باشند و به طور بالقوه به آنها اجازه می دهد که آتش جنگ هسته ای را که منجر به نابودی بشریت می شود، ایجاد کنند.
حالا یه لحظه نفس بکش نصب یک سیستم فرمان و کنترل (C2) مبتنی بر هوش مصنوعی مانند این ممکن است یک امکان دور به نظر برسد.
با این وجود، وزارت دفاع ایالات متحده سخت کار می کند تا سخت افزار و نرم افزار مورد نیاز را به صورت سیستماتیک و با سرعت فزاینده ای توسعه دهد.
برای مثال، در بودجه ارائه شده خود برای سال 2023، نیروی هوایی 231 میلیون دلار برای توسعه سیستم مدیریت پیشرفته میدان نبرد (ABMS)، شبکه پیچیده ای از حسگرها و رایانه های مجهز به هوش مصنوعی که برای جمع آوری و تفسیر داده ها در مورد عملیات دشمن و ارائه خلبانان طراحی شده است، درخواست کرد.
نیروهای زمینی با منوی گزینه های حمله بهینه. با پیشرفت فناوری، این سیستم قادر خواهد بود دستورالعملهای «آتش» را مستقیماً به «تیراندازان» ارسال کند و تا حد زیادی کنترل انسان را دور بزند.
ویل راپر، دستیار وزیر نیروی هوایی در امور اکتساب و فناوری، چنین میگوید: «ابزار تبادل دادههای ماشین به ماشین که گزینههایی برای بازدارندگی، یا روی رمپ [نمایش نیروی نظامی] یا درگیری اولیه فراهم میکند».
و لجستیک، سیستم ABMS را در مصاحبه ای در سال 2020 توصیف کردند . روپر با پیشنهاد اینکه “ما باید نام را تغییر دهیم” با تکامل سیستم اضافه کرد، “من فکر می کنم Skynet خارج شده است، همانطور که دوست دارم این کار را به عنوان یک چیز علمی تخیلی انجام دهم. فقط فکر نمی کنم بتوانیم آنجا برویم.»
و در حالی که او نمی تواند به آنجا برود، این همان جایی است که بقیه ما ممکن است در واقع به آنجا برویم.
توجه داشته باشید، این فقط شروع است. در واقع، ABMS نیروی هوایی در نظر گرفته شده است که هسته یک صورت فلکی بزرگتر از حسگرها و رایانه ها را تشکیل دهد که تمام نیروهای رزمی ایالات متحده را به هم متصل می کند، سیستم فرماندهی و کنترل همه دامنه مشترک (JADC2، تلفظ “Jad-C-two” ”).
سرویس تحقیقاتی کنگره در سال 2022 گزارش داد : «JADC2 قصد دارد با جمعآوری دادهها از حسگرهای متعدد، پردازش دادهها با استفاده از الگوریتمهای هوش مصنوعی برای شناسایی اهداف، و سپس توصیه سلاح بهینه برای درگیری با هدف، فرماندهان را قادر سازد تا تصمیمهای بهتری بگیرند . »
آینده هوش مصنوعی جنگ است
هوش مصنوعی و ماشه هسته ای
در ابتدا، JADC2 برای هماهنگ کردن عملیات رزمی بین نیروهای آمریکایی “متعارف” یا غیرهسته ای طراحی خواهد شد.
با این حال، در نهایت، انتظار میرود که با سیستمهای فرماندهی-کنترل-و-ارتباطات هستهای پنتاگون (NC3) مرتبط شود و به طور بالقوه به رایانهها کنترل قابل توجهی بر استفاده از زرادخانه هستهای آمریکا بدهد.
ژنرال جان ای. هایتن، معاون رئیس ستاد مشترک ارتش، در مصاحبه ای در سال 2020 گفت : “JADC2 و NC3 در هم تنیده شده اند.”
در نتیجه، او به زبان پنتاگونی معمولی اضافه کرد: “NC3 باید JADC2 را مطلع کند و JADC2 باید به NC3 اطلاع دهد.”
تصور زمانی در آینده ای نه چندان دور نیاز به تخیل زیادی ندارد که در آن یک نوع بحران – مثلاً درگیری نظامی آمریکا و چین در دریای چین جنوبی یا نزدیک تایوان – باعث درگیری شدیدتر بین هوای مخالف شود.
و نیروهای دریایی تصور کنید که JADC2 دستور بمباران شدید پایگاهها و سیستمهای فرماندهی دشمن در خود چین را صادر میکند، حملات متقابلی را به تأسیسات ایالات متحده آغاز میکند و تصمیم برقآمیزی JADC2 را برای تلافی با سلاحهای هستهای تاکتیکی، شعلهور هولوکاست هستهای که مدتها از آن میترسیدند، آغاز کرد.
این احتمال که سناریوهای کابوسآمیز از این نوع منجر به شروع تصادفی یا ناخواسته جنگ هستهای شود، مدتهاست که تحلیلگران جامعه کنترل تسلیحات را دچار مشکل کرده است. اما اتوماسیون رو به رشد ارتش سیستم های C2 نه تنها در بین آنها بلکه در بین مقامات ارشد امنیت ملی نیز ایجاد نگرانی کرده است.
در اوایل سال 2019، زمانی که از ژنرال جک شاناهان، مدیر وقت مرکز هوش مصنوعی مشترک پنتاگون، در مورد چنین احتمال مخاطرهآمیزی سؤال کردم، او پاسخ داد : «شما هیچ طرفدار قویتری برای ادغام قابلیتهای هوش مصنوعی در وزارتخانه پیدا نخواهید کرد.
دفاع، اما یک حوزه وجود دارد که در آن مکث می کنم، و آن به فرماندهی و کنترل هسته ای مربوط می شود.» این “تصمیم نهایی انسانی است که باید گرفته شود” و بنابراین “ما باید بسیار مراقب باشیم.”
او افزود، با توجه به “نابالغی” این فناوری، ما به “زمان زیادی برای آزمایش و ارزیابی [قبل از اعمال هوش مصنوعی در NC3] نیاز داریم.”
در سالهای پس از آن، علیرغم چنین هشدارهایی، پنتاگون با توسعه سیستمهای خودکار C2 پیشروی کرده است. وزارت دفاع در ارائه بودجه خود برای سال 2024، 1.4 میلیارد دلار برای JADC2 درخواست کرد تا “قابلیت جنگی را با ارائه مزیت اطلاعاتی با سرعت مرتبط در همه حوزه ها و شرکا تغییر دهد.”
اوه اوه! و سپس، 1.8 میلیارد دلار دیگر برای سایر انواع تحقیقات هوش مصنوعی مرتبط با ارتش درخواست کرد.
مقامات پنتاگون اذعان میکنند که مدتی طول میکشد تا ژنرالهای روبات فرماندهی تعداد زیادی از نیروهای آمریکایی (و تسلیحات خودمختار) را در نبرد برعهده بگیرند، اما آنها قبلاً پروژههای متعددی را راهاندازی کردهاند که برای آزمایش و تکمیل چنین پیوندهایی انجام شده است.
یکی از نمونه ها همگرایی پروژه ارتش است که شامل یک سری تمرینات میدانی است که برای اعتبارسنجی سیستم های اجزای ABMS و JADC2 طراحی شده است. به عنوان مثال، در آزمایشی که در آگوست 2020 در میدان آزمایش یوما در آریزونا برگزار شد، ارتش از انواع حسگرهای هوایی و زمینی برای ردیابی نیروهای شبیهسازی شده دشمن و سپس پردازش دادهها با استفاده از رایانههای مجهز به هوش مصنوعی در پایگاه مشترک لوئیس استفاده کرد.
مککورد در ایالت واشنگتن آن کامپیوترها به نوبه خود دستورات آتش را به توپخانه زمینی در یوما صادر کردند. سرویس تحقیقاتی کنگره بعداً گزارش داد : “این توالی ظاهراً در عرض 20 ثانیه انجام شد . “
اطلاعات کمتری در مورد معادل هوش مصنوعی نیروی دریایی، “Project Overmatch” شناخته شده است، زیرا بسیاری از جنبه های برنامه ریزی آن مخفی مانده است.
به گفته دریاسالار مایکل گیلدی، رئیس عملیات دریایی، Overmatch “به منظور فعال کردن نیروی دریایی که در دریا ازدحام می کند، ایجاد اثرات مرگبار و غیر کشنده همزمان از دور و نزدیک، هر محور و هر حوزه ای” در نظر گرفته شده است. چیز دیگری در مورد این پروژه فاش نشده است.
آینده هوش مصنوعی جنگ است
“جنگ های فلش” و انقراض انسان
Dبا وجود تمام محرمانه بودن این پروژهها، میتوانید ABMS، JADC2، Convergence و Overmatch را بهعنوان بلوکهای ساختمانی برای یک شبکه بزرگ ابرکامپیوتر شبیه Skynet در آینده در نظر بگیرید که برای فرماندهی تمام نیروهای ایالات متحده، از جمله نیروهای هستهای آن، به صورت مسلحانه طراحی شده است. مبارزه کن.
هرچه پنتاگون بیشتر در این مسیر حرکت کند، به زمانی نزدیکتر میشویم که هوش مصنوعی بر همه سربازان آمریکایی و نیروهای مخالف و غیرنظامیانی که در تیراندازی متقابل گرفتار شدهاند، قدرت مرگ یا زندگی دارد.
چنین چشم اندازی باید دلیل کافی برای نگرانی باشد. برای شروع، خطر خطاها و محاسبات اشتباه توسط الگوریتم های موجود در قلب چنین سیستم هایی را در نظر بگیرید.
همانطور که دانشمندان ارشد کامپیوتر به ما هشدار دادهاند، این الگوریتمها قادر به اشتباهات غیرقابل توضیح و برای استفاده از اصطلاح هوش مصنوعی در لحظه، “توهمات” هستند – یعنی نتایج بهظاهر معقولی که کاملاً توهمی هستند.
در این شرایط، تصور اینکه چنین رایانههایی در حال «توهم» حمله قریبالوقوع دشمن و راهاندازی جنگی هستند که در غیر این صورت ممکن بود اجتناب شود، سخت نیست.
و این بدترین خطری نیست که باید در نظر گرفت. به هر حال، این احتمال آشکار وجود دارد که دشمنان آمریکا به طور مشابه نیروهای خود را به ژنرال های روبات مجهز کنند.
به عبارت دیگر، جنگهای آینده احتمالاً توسط مجموعهای از سیستمهای هوش مصنوعی علیه سیستمهای دیگر، هر دو مرتبط با تسلیحات هستهای، با نتایج کاملاً غیرقابل پیشبینی – اما بالقوه فاجعهبار – انجام میشود.
اطلاعات زیادی (حداقل از منابع عمومی) در مورد تلاشهای روسیه و چین برای خودکارسازی سیستمهای فرماندهی و کنترل نظامی خود در دست نیست، اما تصور میشود که هر دو کشور در حال توسعه شبکههایی هستند که قابل مقایسه با JADC2 پنتاگون هستند.
در واقع، در اوایل سال 2014، روسیه یک مرکز کنترل دفاع ملی (NDCC) را در مسکو افتتاح کرد، یک پست فرماندهی متمرکز برای ارزیابی تهدیدات جهانی و شروع هر گونه اقدام نظامی که ضروری تشخیص داده شود، چه ماهیت غیرهسته ای یا هسته ای. مانند JADC2، NDCC برای جمعآوری اطلاعات در مورد حرکات دشمن از منابع متعدد و ارائه راهنماییهایی به افسران ارشد در مورد پاسخهای احتمالی طراحی شده است.
گفته می شود چین در حال پیگیری یک شرکت پیچیده تر، اگر مشابه باشد، تحت عنوان “جنگ دقیق چند دامنه ای” (MDPW) است.
بر اساس گزارش 2022 پنتاگون در مورد تحولات نظامی چین، ارتش آن، ارتش آزادیبخش خلق، برای استفاده از حسگرهای مجهز به هوش مصنوعی و شبکههای کامپیوتری برای شناسایی سریع آسیبپذیریهای کلیدی در سیستم عملیاتی ایالات متحده و سپس ترکیب نیروهای مشترک در سراسر این کشور آموزش و تجهیز شده است . دامنهها برای راهاندازی حملات دقیق علیه این آسیبپذیریها.»
پس، یک جنگ آینده بین ایالات متحده و روسیه یا چین (یا هر دو) را تصور کنید که در آن JADC2 فرماندهی تمام نیروهای ایالات متحده را بر عهده دارد، در حالی که NDCC روسیه و MDPW چین فرماندهی نیروهای آن کشورها را بر عهده دارند.
همچنین در نظر بگیرید که هر سه سیستم احتمالاً خطاها و توهمات را تجربه می کنند. وقتی ژنرال های ربات تصمیم بگیرند که زمان “برنده شدن” جنگ با بمباران هسته ای دشمنانشان است، انسان ها چقدر ایمن خواهند بود؟
اگر این یک سناریوی عجیب و غریب به نظرتان میرسد، حداقل به گفته رهبری کمیسیون امنیت ملی در زمینه هوش مصنوعی، یک شرکت تحت فرمان کنگره که توسط اریک اشمیت، رئیس سابق گوگل، و رابرت ورک، معاون سابق وزیر، ریاست میشد، دوباره فکر کنید.
دفاع در حالی که کمیسیون بر این باور است که طراحی مناسب، آزمایش و استفاده از سیستمهای تسلیحاتی مستقل و مجهز به هوش مصنوعی، منافع نظامی و حتی بشردوستانه قابل توجهی را به همراه خواهد داشت، استفاده جهانی کنترل نشده از چنین سیستمهایی به طور بالقوه خطر تشدید ناخواسته درگیری و بیثباتی بحران را به همراه دارد .
گزارش نهایی. چنین خطراتی ممکن است «به دلیل پیچیدگیهای چالشبرانگیز و آزمایشنشده تعامل بین سیستمهای تسلیحاتی مجهز به هوش مصنوعی و خودمختار در میدان نبرد» به وجود بیاید، یعنی زمانی که هوش مصنوعی با هوش مصنوعی مبارزه میکند.
آینده هوش مصنوعی جنگ است
اگرچه ممکن است این یک سناریوی افراطی به نظر برسد، اما کاملاً ممکن است که سیستمهای هوش مصنوعی متضاد بتوانند یک «جنگ فلش» فاجعهبار را راهاندازی کنند – معادل نظامی یک «سقوط ناگهانی» در وال استریت، زمانی که معاملات عظیم توسط الگوریتمهای تجاری فوقپیچیده باعث فروش وحشت میشود.
اپراتورهای انسانی می توانند نظم را بازگردانند. در “سقوط فلش” بدنام در 6 می 2010، معاملات کامپیوتری باعث کاهش 10 درصدی ارزش بازار سهام شد.
به گفته پل شار از مرکز امنیت جدید آمریکا، که برای اولین بار این پدیده را مطالعه کرد، «معادل نظامی چنین بحرانهایی» در وال استریت زمانی پدید میآید که سیستمهای فرماندهی خودکار نیروهای مخالف «در یک آبشار از درگیریهای فزاینده گرفتار شوند.
” وی خاطرنشان کرد: در چنین شرایطی، “سلاح های خودگردان می توانند در یک لحظه منجر به مرگ تصادفی و تخریب در مقیاس فاجعه بار شوند.”
در حال حاضر، عملاً هیچ تدابیری برای جلوگیری از چنین فاجعهای در آینده وجود ندارد و یا حتی گفتوگوهایی میان قدرتهای بزرگ برای طرح چنین تدابیری وجود ندارد.
با این حال، همانطور که کمیسیون امنیت ملی در مورد هوش مصنوعی خاطرنشان کرد، چنین اقدامات کنترل بحرانی برای ادغام “سیم های خودکار تشدید تنش” در چنین سیستم هایی “که از تشدید خودکار درگیری جلوگیری می کند” ضروری است.
در غیر این صورت، نسخه فاجعه بار جنگ جهانی سوم بسیار ممکن به نظر می رسد. با توجه به ناپختگی خطرناک چنین فناوری و بی میلی پکن، مسکو و واشنگتن برای اعمال هر گونه محدودیتی برای تسلیحات هوش مصنوعی، ممکن است روزی که ماشین ها بتوانند ما را نابود کنند، بسیار زودتر از آنچه تصور می کنیم فرا برسد و انقراض بشریت رخ دهد. خسارت جانبی چنین جنگی در آینده.